13 research outputs found

    Détection de changement par fusion d'images de télédétection de résolutions et modalités différentes

    Get PDF
    La détection de changements dans une scène est l’un des problèmes les plus complexes en télédétection. Il s’agit de détecter des modifications survenues dans une zone géographique donnée par comparaison d’images de cette zone acquises à différents instants. La comparaison est facilitée lorsque les images sont issues du même type de capteur c’est-à-dire correspondent à la même modalité (le plus souvent optique multi-bandes) et possèdent des résolutions spatiales et spectrales identiques. Les techniques de détection de changements non supervisées sont, pour la plupart, conçues spécifiquement pour ce scénario. Il est, dans ce cas, possible de comparer directement les images en calculant la différence de pixels homologues, c’est-à-dire correspondant au même emplacement au sol. Cependant, dans certains cas spécifiques tels que les situations d’urgence, les missions ponctuelles, la défense et la sécurité, il peut s’avérer nécessaire d’exploiter des images de modalités et de résolutions différentes. Cette hétérogénéité dans les images traitées introduit des problèmes supplémentaires pour la mise en œuvre de la détection de changements. Ces problèmes ne sont pas traités par la plupart des méthodes de l’état de l’art. Lorsque la modalité est identique mais les résolutions différentes, il est possible de se ramener au scénario favorable en appliquant des prétraitements tels que des opérations de rééchantillonnage destinées à atteindre les mêmes résolutions spatiales et spectrales. Néanmoins, ces prétraitements peuvent conduire à une perte d’informations pertinentes pour la détection de changements. En particulier, ils sont appliqués indépendamment sur les deux images et donc ne tiennent pas compte des relations fortes existant entre les deux images. L’objectif de cette thèse est de développer des méthodes de détection de changements qui exploitent au mieux l’information contenue dans une paire d’images observées, sans condition sur leur modalité et leurs résolutions spatiale et spectrale. Les restrictions classiquement imposées dans l’état de l’art sont levées grâce à une approche utilisant la fusion des deux images observées. La première stratégie proposée s’applique au cas d’images de modalités identiques mais de résolutions différentes. Elle se décompose en trois étapes. La première étape consiste à fusionner les deux images observées ce qui conduit à une image de la scène à haute résolution portant l’information des changements éventuels. La deuxième étape réalise la prédiction de deux images non observées possédant des résolutions identiques à celles des images observées par dégradation spatiale et spectrale de l’image fusionnée. Enfin, la troisième étape consiste en une détection de changements classique entre images observées et prédites de mêmes résolutions. Une deuxième stratégie modélise les images observées comme des versions dégradées de deux images non observées caractérisées par des résolutions spectrales et spatiales identiques et élevées. Elle met en œuvre une étape de fusion robuste qui exploite un a priori de parcimonie des changements observés. Enfin, le principe de la fusion est étendu à des images de modalités différentes. Dans ce cas où les pixels ne sont pas directement comparables, car correspondant à des grandeurs physiques différentes, la comparaison est réalisée dans un domaine transformé. Les deux images sont représentées par des combinaisons linéaires parcimonieuses des éléments de deux dictionnaires couplés, appris à partir des données. La détection de changements est réalisée à partir de l’estimation d’un code couplé sous condition de parcimonie spatiale de la différence des codes estimés pour chaque image. L’expérimentation de ces différentes méthodes, conduite sur des changements simulés de manière réaliste ou sur des changements réels, démontre les avantages des méthodes développées et plus généralement de l’apport de la fusion pour la détection de changement

    Robust fusion of multi-band images with different spatial and spectral resolutions for change detection

    Get PDF
    Archetypal scenarios for change detection generally consider two images acquired through sensors of the same modality. However, in some specific cases such as emergency situations, the only images available may be those acquired through different kinds of sensors. More precisely, this paper addresses the problem of detecting changes between two multiband optical images characterized by different spatial and spectral resolutions. This sensor dissimilarity introduces additional issues in the context of operational change detection. To alleviate these issues, classical change detection methods are applied after independent preprocessing steps (e.g., resampling) used to get the same spatial and spectral resolutions for the pair of observed images. Nevertheless, these preprocessing steps tend to throw away relevant information. Conversely, in this paper, we propose a method that more effectively uses the available information by modeling the two observed images as spatial and spectral versions of two (unobserved) latent images characterized by the same high spatial and high spectral resolutions. As they cover the same scene, these latent images are expected to be globally similar except for possible changes in sparse spatial locations. Thus, the change detection task is envisioned through a robust multiband image fusion method, which enforces the differences between the estimated latent images to be spatially sparse. This robust fusion problem is formulated as an inverse problem, which is iteratively solved using an efficient block-coordinate descent algorithm. The proposed method is applied to real panchromatic, multispectral, and hyperspectral images with simulated realistic and real changes. A comparison with state-of-the-art change detection methods evidences the accuracy of the proposed strategy

    Fusion-based change detection for ng images of differemote sensirent resolutions and modalities

    No full text
    La détection de changements dans une scène est l’un des problèmes les plus complexes en télédétection. Il s’agit de détecter des modifications survenues dans une zone géographique donnée par comparaison d’images de cette zone acquises à différents instants. La comparaison est facilitée lorsque les images sont issues du même type de capteur c’est-à-dire correspondent à la même modalité (le plus souvent optique multi-bandes) et possèdent des résolutions spatiales et spectrales identiques. Les techniques de détection de changements non supervisées sont, pour la plupart, conçues spécifiquement pour ce scénario. Il est, dans ce cas, possible de comparer directement les images en calculant la différence de pixels homologues, c’est-à-dire correspondant au même emplacement au sol. Cependant, dans certains cas spécifiques tels que les situations d’urgence, les missions ponctuelles, la défense et la sécurité, il peut s’avérer nécessaire d’exploiter des images de modalités et de résolutions différentes. Cette hétérogénéité dans les images traitées introduit des problèmes supplémentaires pour la mise en œuvre de la détection de changements. Ces problèmes ne sont pas traités par la plupart des méthodes de l’état de l’art. Lorsque la modalité est identique mais les résolutions différentes, il est possible de se ramener au scénario favorable en appliquant des prétraitements tels que des opérations de rééchantillonnage destinées à atteindre les mêmes résolutions spatiales et spectrales. Néanmoins, ces prétraitements peuvent conduire à une perte d’informations pertinentes pour la détection de changements. En particulier, ils sont appliqués indépendamment sur les deux images et donc ne tiennent pas compte des relations fortes existant entre les deux images. L’objectif de cette thèse est de développer des méthodes de détection de changements qui exploitent au mieux l’information contenue dans une paire d’images observées, sans condition sur leur modalité et leurs résolutions spatiale et spectrale. Les restrictions classiquement imposées dans l’état de l’art sont levées grâce à une approche utilisant la fusion des deux images observées. La première stratégie proposée s’applique au cas d’images de modalités identiques mais de résolutions différentes. Elle se décompose en trois étapes. La première étape consiste à fusionner les deux images observées ce qui conduit à une image de la scène à haute résolution portant l’information des changements éventuels. La deuxième étape réalise la prédiction de deux images non observées possédant des résolutions identiques à celles des images observées par dégradation spatiale et spectrale de l’image fusionnée. Enfin, la troisième étape consiste en une détection de changements classique entre images observées et prédites de mêmes résolutions. Une deuxième stratégie modélise les images observées comme des versions dégradées de deux images non observées caractérisées par des résolutions spectrales et spatiales identiques et élevées. Elle met en œuvre une étape de fusion robuste qui exploite un a priori de parcimonie des changements observés. Enfin, le principe de la fusion est étendu à des images de modalités différentes. Dans ce cas où les pixels ne sont pas directement comparables, car correspondant à des grandeurs physiques différentes, la comparaison est réalisée dans un domaine transformé. Les deux images sont représentées par des combinaisons linéaires parcimonieuses des éléments de deux dictionnaires couplés, appris à partir des données. La détection de changements est réalisée à partir de l’estimation d’un code couplé sous condition de parcimonie spatiale de la différence des codes estimés pour chaque image. L’expérimentation de ces différentes méthodes, conduite sur des changements simulés de manière réaliste ou sur des changements réels, démontre les avantages des méthodes développées et plus généralement de l’apport de la fusion pour la détection de changementsChange detection is one of the most challenging issues when analyzing remotely sensed images. It consists in detecting alterations occurred in a given scene from between images acquired at different times. Archetypal scenarios for change detection generally compare two images acquired through the same kind of sensor that means with the same modality and the same spatial/spectral resolutions. In general, unsupervised change detection techniques are constrained to two multiband optical images with the same spatial and spectral resolution. This scenario is suitable for a straight comparison of homologous pixels such as pixel-wise differencing. However, in somespecific cases such as emergency situations, punctual missions, defense and security, the only available images may be of different modalities and of different resolutions. These dissimilarities introduce additional issues in the context of operational change detection that are not addressedby most classical methods. In the case of same modality but different resolutions, state-of-the artmethods come down to conventional change detection methods after preprocessing steps appliedindependently on the two images, e.g. resampling operations intended to reach the same spatialand spectral resolutions. Nevertheless, these preprocessing steps may waste relevant informationsince they do not take into account the strong interplay existing between the two images. The purpose of this thesis is to study how to more effectively use the available information to work with any pair of observed images, in terms of modality and resolution, developing practicalcontributions in a change detection context. The main hypothesis for developing change detectionmethods, overcoming the weakness of classical methods, is through the fusion of observed images. In this work we demonstrated that if one knows how to properly fuse two images, it is also known how to detect changes between them. This strategy is initially addressed through a change detection framework based on a 3-step procedure: fusion, prediction and detection. Then, the change detection task, benefiting from a joint forward model of two observed images as degradedversions of two (unobserved) latent images characterized by the same high spatial and highspectral resolutions, is envisioned through a robust fusion task which enforces the differencesbetween the estimated latent images to be spatially sparse. Finally, the fusion problem isextrapolated to multimodal images. As the fusion product may not be a real quantity, the process is carried out by modelling both images as sparse linear combinations of an overcomplete pair of estimated coupled dictionaries. Thus, the change detection task is envisioned through a dual code estimation which enforces spatial sparsity in the difference between the estimated codes corresponding to each image. Experiments conducted in simulated realistically and real changes illustrate the advantages of the developed method, both qualitatively and quantitatively, proving that the fusion hypothesis is indeed a real and effective way to deal with change detectio

    A comparative study of fusion-based change detection methods for multi-band images with different spectral and spatial resolutions

    Get PDF
    International audienceThis paper deals with a fusion-based change detection (CD) framework for multi-band images with different spatial and spectral resolutions. The first step of the considered CD framework consists in fusing the two observed images. The resulting fused image is subsequently spatially or spectrally degraded to produce two pseudo-observed images, with the same resolutions as the two observed images. Finally, CD can be performed through a pixel-wise comparison of the pseudo-observed and observed images since they share the same resolutions. Obviously, fusion is a key step in this framework. Thus, this paper proposes to quantitatively and qualitatively compare state-of-the-art fusion methods, gathered into four main families, namely component substitution, multi-resolution analysis, unmixing and Bayesian, with respect to the performance of the whole CD framework evaluated on simulated and real images

    Change detection between multi-band images using a robust fusion-based approach

    Get PDF
    International audienceThis paper proposes a robust fusion-based strategy to detect changes between two multi-band optical images with different spatial and spectral resolutions, e.g., a multispectral high spatial resolution image and a hyperspectral low spatial resolution image. The dissimilarity between sensor resolutions makes the change detection problem challenging, which has been generally bypassed in the literature: most often, the two images are crudely and independently resampled in order to get the same spatial and spectral resolutions and finally, classical change detection methods are applied. However, the resampling operation tends to lose information. In this paper, we propose a method that more effectively uses the available information: the two observed images are respectively modeled as spatial and spectral degradations of two latent images characterized by the same high spatial and high spectral resolutions. Representing the same scene, these latent images are expected to be globally similar except for possible changes in sparse spatial locations. Change detection is then envisioned through the solution of an inverse problem, shown to be a specific instance of multi-band image fusion. The proposed method is applied to real images with simulated realistic changes. A comparison with state-of-the-art change detection methods evidences the proposed method superiority

    Detecting changes between optical images of different spatial and spectral resolutions: a fusion-based approach

    Get PDF
    International audienceChange detection (CD) is one of the most challenging issues when analyzing remotely sensed images. Comparing several multidate images acquired through the same kind of sensor is the most common scenario. Conversely, designing robust, flexible, and scalable algorithms for CD becomes even more challenging when the images have been acquired by two different kinds of sensors. This situation arises in the case of emergency under critical constraints. This paper presents, to the best of our knowledge, the first strategy to deal with optical images characterized by dissimilar spatial and spectral resolutions. Typical considered scenarios include CD between panchromatic, multispectral, and hyperspectral images. The proposed strategy consists of a three-step procedure: 1) inferring a high spatial and spectral resolution image by fusion of the two observed images characterized one by a low spatial resolution and the other by a low spectral resolution; 2) predicting two images with, respectively, the same spatial and spectral resolutions as the observed images by the degradation of the fused one; and 3) implementing a decision rule to each pair of observed and predicted images characterized by the same spatial and spectral resolutions to identify changes. To quantitatively assess the performance of the method, an experimental protocol is specifically designed, relying on synthetic yet physically plausible change rules applied to real images. The accuracy of the proposed framework is finally illustrated on real images

    Détection de changements par fusion robuste d'images multi-bandes de résolutions spatiale et spectrale différentes

    Get PDF
    International audienceLa détection des changements (DC) entre des images optiques multi-bandes hétérogènes (par exemple entre une image panchromatique et une image hyperspectrale) se heurte à une difficulté importante liée à la différence de résolutions spectrale et spatiale entre ces images. Or, en situation d’urgence, il peut s’avérer indispensable de comparer des images de résolutions différentes. La plupart des méthodes de DC proposées dans la littérature ne tiennent pas compte de cette difficulté ou la contournent en introduisant un ré-échantillonnage préalable. Il est pourtant important d’éviter toute perte d’information, spatiale ou spectrale, telle qu’en produisent les opérations de ré-échantillonnage. La stratégie proposée dans cet article utilise un algorithme de fusion robuste afin de détecter des changements entre des images optiques multi-bandes, de résolutions spatiale et spectrale différentes, sans ré-échantillonnage préalable

    Unsupervised change detection for multimodal remote sensing images via coupled dictionary learning and sparse coding

    Get PDF
    International audienceArchetypal scenarios for change detection generally consider two images acquired through sensors of the same modality. The resolution dissimilarity is often bypassed though a simple preprocessing, applied independently on each image to bring them to the same resolution. However, in some important situations, e.g. a natural disaster, the only images available may be those acquired through sensors of different modalities and resolutions. Therefore, it is mandatory to develop general and robust methods able to deal with this unfavorable situation. This paper proposes a coupled dictionary learning strategy to detect changes between two images with different modalities and possibly different spatial and/or spectral resolutions. The pair of observed images is modelled as a sparse linear combination of atoms belonging to a pair of coupled overcomplete dictionaries learnt from the two observed images. Codes are expected to be globally similar for areas not affected by the changes while, in some spatially sparse locations, they are expected to be different. Change detection is then envisioned as an inverse problem, namely estimation of a dual code such that the difference between the estimated codes associated with each image exhibits spatial sparsity. A comparison with state-of-the-art change detection methods evidences the proposed method superiority
    corecore